jueves, 8 de mayo de 2025

Sartenes con Teflón

De vez en cuando hay que cambiar las sartenes de diferentes tamaños que tenemos por casa. Salvo alguna experiencia suelta, nuestras sartenes han tenido siempre un recubrimiento antiadherente aplicado a la superficie de las mismas, lo que nos evita algunas situaciones engorrosas. Durante unos 70 años, esos recubrimientos han sido a base de politetrafluoroetileno (PTFE), conocido comercialmente como Teflón, un polímero de excepcional resistencia al ataque químico, la corrosión y el calor. Pero ese fluoropolímero, que probablemente conozcáis también en forma Goretex o de juntas más o menos maleables, es un pariente de una amplia familia de sustancias que los químicos llamamos perfluoroalquiladas y polifluoroalquiladas (PFAS, por sus siglas en inglés) y que suelen aparecer en los medios como "productos químicos para siempre” (forever chemicals). Son persistentes en el medio ambiente y se les atribuyen determinados problemas de salud, incluido el cáncer, atribuciones derivadas generalmente de estudios con animales. En los últimos años, los PFAS se enfrentan a un creciente escrutinio y a regulaciones por parte de agencias que cuidan de nuestra salud. Y de rebote, eso puede afectar a las sartenes.

Y así, en enero de este año, Minnesota se convirtió en el primer estado americano en prohibir la venta de productos que contienen PFAS, incluyendo en la prohibición a los utensilios de cocina a base de Teflón. En febrero de este mismo año, la Asamblea francesa aprobó una prohibición similar que entrará en vigor en 2026, aunque de esa legislación se excluyó los utensilios de cocina, debido sobre todo a la ruidosa campaña (Touchez pas ma poêle!), orquestada por el fabricante francés de dichos utensilios vendidos bajo la marca Tefal, que apeló a los peligros a los que se exponía el mercado laboral francés si, sobre todo, se incluían sus sartenes. Europa también está preparando una legislación que prohibiría el uso de PFAS, pero yo creo que eso va para largo, dadas las implicaciones que tendría en sectores como el de la defensa o la microelectrónica. Pero de eso hablaremos otro día porque da para mucho.

Cuando uno calienta alimentos en una sartén, las proteínas de los mismos forman con la superficie metálica fuertes enlaces covalentes o enlaces más débiles que los químicos denominamos de van der Waals. Y ello es debido a la alta superficie ofrecida por los metales a las proteínas de los huevos o de la carne, merced a una estructura más o menos rugosa, solo apreciable cuando se observa esa superficie a escala microscópica. Para hacer que esa superficie sea antiadherente, el metal se trata con un material no reactivo que llena los huecos y grietas microscópicas de la superficie y luego se solidifica para hacer que sea lisa. Para esos usos, el Teflón es maravillosamente eficaz ya que se trata de largas cadenas de átomos de carbono, cada uno de ellos unido a dos átomos de flúor. Los fuertes enlaces carbono-carbono y carbono-flúor forman una capa inerte que no reacciona con las moléculas de los alimentos. Además el Teflón repele el aceite y el agua, por lo que los líquidos simplemente se deslizan sobre él.

La controversia en torno a la seguridad de los utensilios de cocina de Teflon arrancó hace más de dos décadas y tuvo que ver con el uso en su fabricación de otra molécula perteneciente a la familia de las PFAS, el ácido perfluorooctanoico (PFOA), que, en aquellos momentos, servía como un ayudante en la polimerización del Teflon, lo que hacía que los recubrimientos posteriores con ese polímero pudieran contener cantidades residuales de PFOA. Pero lo que, a la larga, ha resultado más peligroso es que las empresas que fabricaban Teflon emitían PFOA a sus entornos próximos. La americana Agencia de Medio Ambiente (EPA) empezó hace años el seguimiento de la contaminación por esa sustancia, principalmente en núcleos de población próximos a las factorías que manejaban PFOA en revestimientos y otros usos, ya que en la mayoría de ellas la sustancia se venteaba al aire circundante o estaba contenida en aguas residuales.

Como consecuencia de esas acciones, la EPA y los principales fabricantes de PFOA firmaron acuerdos para eliminar la fabricación y uso de esa sustancia antes de 2015. En el caso del proceso de la formación de Teflón, la DuPont, la empresa que ha liderado la fabricación de ese material, ya no emplea, desde 2012, PFOA en el proceso de formación de Teflón. Hoy sabemos que otros importantes emisores de PFOA y otros fluorados de la familia han sido y siguen siendo los aeropuertos e instalaciones militares que las han usado en sus dispositivos de extinción de incendios. Dado su bajo peso molecular, algo que le diferencia claramente del Teflón, pronto se hizo evidente la ubicuidad de las PFAS en el medio ambiente y en la sangre de personas expuestas a las mismas por motivos laborales y, sobre todo y más preocupante por el número de personas afectadas, en las que consumían agua potable contaminada por PFAS.

Ante la posible prohibición generalizada de estas sustancias y por extensión del Teflón, ¿qué sartenes tendremos que usar?. Yo he curioseado recientemente (como ya he hecho en el pasado) en tiendas de mi pueblo que venden sartenes y las que llevan Teflón como revestimiento antiadherente siguen siendo las más habituales. Pero parece que la alternativa comercial que se va abriendo camino son las que contienen revestimientos "cerámicos", algo que pongo entre comillas porque esa denominación puede inducir a engaño a los consumidores que, ante ese término, piensan en jarrones y azulejos, fabricados con arena u otros óxidos metálicos.

Las formulaciones de estas sartenes varían según el fabricante, pero generalmente es una red basada en polidimetil siloxano (PDMS), una silicona. Para ello, los fabricantes dispersan nanopartículas de minerales como el dióxido de silicio, el carburo de silicio y el dióxido de titanio en un disolvente, donde forman un gel. Luego combinan el gel con PDMS y aditivos, aplican la mezcla a una superficie metálica y la endurecen con calor. El conjunto se une fuertemente a los metales, creando un revestimiento duro y repelente a los líquidos, con carácter antiadherente. Curioseando por ahí, he visto sartenes que anuncian un revestimiento cerámico, pero que incluyen Teflón junto a un óxido como el de titanio. Así que, como suele pasar cuando el marketing perverso entra en un mercado conflictivo, hay que leerse bien la etiqueta.

¿Son mejores las sartenes con recubrimientos más o menos cerámicos que las de Teflon puro y duro?. Aunque anda por ahí algún artículo de investigadores cordobeses que las compara y en el que parecen ganar las de Teflón, va a ser difícil trasplantar esos resultados de laboratorio a un usuario normal que usa diferentes tipos de fuentes de de calor (gas, vitro, inducción, etc.), emplea diferentes temperaturas según el regulador de potencia que tenga en su cocina e, incluso, tiene su propia forma de cocinar.

Si necesitáis una sartén nueva y antiadherente para casa, no os volváis locos y compraros, mientras se pueda, una con revestimiento de Teflón. En muchas marcas veréis el reclamo publicitario “sin PFOA”, lo cual es una obviedad porque hace más de una década que en la fabricación de Teflón no se usa PFOA. Y si usáis bien esas sartenes (no las rayéis con utensilios punzantes y, sobre todo, no las dejéis en el fuego sin control) os funcionarán bien y no desprenderán los forever chemicals porque, a pesar de lo que se dice a veces, el Teflón tampoco se degrada dando lugar a PFOA. Y si, finalmente, las prohiben (todo es posible en este mundo raro en el que vivimos) ya nos acostumbraremos a las que nos queden..

Hoy música del maestro Guridi al que, siendo yo muy pequeño, llegué a conocer personalmente. La Amorosa, de sus Diez Melodías Vascas (1940), con la Orquesta Sinfónica de la Región de Murcia y Andrés Salado Egea como director.

Leer mas...

martes, 22 de abril de 2025

Polímeros y superficies de las bolas de golf


Tanto si se trata de golfistas profesionales como de golfistas aficionados como un servidor, los últimos golpes dentro de esa delimitada superficie (o green) donde se coloca la bandera que marca el fin de cada hoyo, son determinantes. En el caso de los profesionales para ganar torneos y dinero y, en el caso de los aficionados, para salir con la moral más alta de cara al siguiente día que juguemos o ganarle a un compañero de partida una cerveza. Esta semana, diversos medios se han hecho eco de una noticia que, en teoría, viene a mejorar los resultados en esa superficie en torno al hoyo. Y de eso va esta entrada, una nueva versión de otra que ya tiene diecinueve años y que dediqué, sobre todo, a la historia de los materiales que constituyeron y constituyen las bolas de golf. La versión 2025 de esa vieja entrada se centra en los materiales que han formado y forman parte de la superficie externa de las bolas y que, como los que constituyen hoy el interior, son polímeros.

La historia de la relación entre bolas de golf y materiales poliméricos arranca a mediados del siglo XIX, cuando irrumpen en Occidente los cauchos naturales que, como seguro sabréis, son también polímeros o cadenas constituidas por la repetición de una unidad o monómero. Antes de ello, las bolas prehistóricas fueron de cuero, rellenas de plumas, como las que los romanos usaban en un juego llamado paganica. Muchos siglos después, los primeros jugadores escoceses golpeaban bolas de madera maciza, aunque en algún momento del siglo XVII recogieron el testigo de las primitivas bolas de plumas, solo que ahora sometían a las mismas a un proceso en agua hirviendo antes de usarlas como relleno (las llamadas bolas featherie). Pero, como decía arriba, hacia 1850, con la popularización de los cauchos naturales en diferentes ámbitos, entra en escena la bola denominada gutty. Un diminutivo de un árbol de origen tropical llamado gutapercha que, cuando se hacen incisiones en su tallo, el árbol trata de curar esa herida exudando un látex que, convenientemente manejado, genera una goma elástica que se puede enrollar hasta formar una bola maciza. Esas bolas (las gutties) marcaron un antes y un después en la historia del golf, no sólo por las mayores distancias alcanzadas sino porque eran prácticamente indestructibles.

A finales del siglo XIX (1899) Coburn Haskell y Bertram Work, un empleado de la empresa de caucho Goodrich de Ohio, patentaron la bola Haskell, el precedente más próximo de las actuales bolas de golf. Fabricadas en torno a un núcleo sólido (generalmente de madera o de caucho vulcanizado y duro), ese núcleo se envolvía con hilos de otro caucho natural derivado, en este caso, del árbol denominado Hevea Brasiliensis. Para darle el aspecto final se recubría el conjunto con una capa final de la ya mencionada gutapercha o de otro caucho similar, derivado de un tercer árbol tropical llamado balata. Durante mucho tiempo, incluso cuando yo empecé a jugar en los 90, balata era sinónimo de bolas de calidad, casi legendarias.

Desde tiempos de las gutties era obvio que cuando la superficie se deterioraba y no era lisa del todo, la bola volaba mejor, con lo que los introductores de la bola Haskell ya la dotaron de surcos o deformaciones superficiales de forma deliberada, precedentes de los actuales hoyuelos o dimples (como los que se ven en la figura que ilustra esta entrada) que contribuyen a la aerodinámica de la bola, reduciendo la resistencia al aire cuando vuelan, al crear una capa de aire turbulento alrededor de la bola. Por otro lado, ayuda a generar una mayor sustentación en el aire, debido al denominado efecto Magnus cuando la bola gira. Eso hace que una bola bien golpeada pueda volar más alto y más lejos. Cosas de la Física.

A finales de los años 50, la compañía DuPont desarrolló un tipo de copolímero a base de etileno y ácido acrílico. Neutralizando el ácido con hidróxido sódico se obtuvo un material bautizado como ionómero que, vendido bajo el nombre comercial de Surlyn, sigue todavía en el mercado para múltiples aplicaciones. Entre esas aplicaciones, el Surlyn ha encontrado un nicho de negocio como material de esa superficie externa de las bolas de golf. Cuando las vigentes cubiertas de balata se cambiaron por otras de Surlyn los resultados fueron espectaculares, no solo en las distancias alcanzadas sino en el control de los golpes a cortas distancias, porque permitían el control del retroceso de las bolas (spin), una vez tocado el green. En los ochenta y noventa, estuve suscrito a una sección del denominado Chemical Abstracts Service que, cada quince días, me hacía llegar una especie de revista en la que se listaban los títulos, autores y resúmenes de todos los artículos científicos y patentes recientemente publicados sobre materiales poliméricos. En cada ejemplar, era normal encontrar unas cuantas patentes sobre nuevas superficies para bolas de golf, casi todas a base de ese copolímero de etileno y ácido acrílico, pero cambiando ligeramente la composición del copolímero o neutralizando el ácido acrílico con cationes diferentes al sodio habitual del Surlyn primitivo, como los de magnesio o zinc.

Desde los inicios del siglo XXI, se empezaron a popularizar, sobre todo en las bolas más caras, las superficies a base de poliuretano termoplástico. Aunque se introdujeron en los años 80, tuvieron que vencer ciertos obstáculos antes de poder rivalizar con las cubiertas a base de Surlyn, como su mayor fragilidad y su dificultad para el moldeo. Resueltos esos problemas, hoy todas las grandes marcas tienen su gama alta a base de superficies de poliuretano. Las ventajas que se suelen aducir sobre las de Surlyn es que generan más efecto retroceso (spin) en las distancias cortas, mejoran la sensación en el impacto y, en línea con lo que sigue a continuación, ofrecen mayor control en el green.

La noticia a la que hago referencia al principio y que ha motivado esta entrada, tiene que ver con un trabajo que se ha presentado en la reciente reunión de primavera de la American Chemical Society (ACS) celebrada en San Diego entre el 23 y el 27 de marzo. En esa comunicación, un científico y empresario ha dado a conocer un recubrimiento aplicable a la superficie de las bolas de golf que, según él, puede resultar relevante para los golfistas de todos los niveles. Un problema a la hora de ajustar el golpe que pueda acabar con la bola en el interior del hoyo es que, a veces, la hierba de la superficie del green está húmeda por el rocío de la mañana o una lluvia reciente (algo bastante habitual en mi campo donostiarra) mientras que, en otros, la hierba de la superficie está seca por calor o porque no ha llovido o no se ha regado convenientemente. En estos últimos, a igualdad de fuerza proporcionada con el palo a la bola, ésta corre más que en los greenes de superficie húmeda, haciendo complicada y muy variable la estrategia que el jugador tiene que usar en esos golpes finales.

El autor de la comunicación al Congreso de la ACS viene a decir que, en virtud de un especial recubrimiento aplicado a la superficie de la bola, ésta puede correr más de lo habitual en las superficies mojadas y menos en las secas, homogeneizando así la reacción ante una determinada fuerza aplicada. Evidentemente, la composición de ese recubrimiento es secreto de sumario pero el mismo autor ha avanzado que es una mezcla de sílice amorfa, arcilla y ciertos polímeros hidrofílicos que interactúan con la mayor o menor cantidad de agua en el green de una manera especial, aunque no afectan a las condiciones de vuelo cuando se ejecutan golpes de larga y media distancia en el resto del recorrido de un determinado hoyo. Todo ello lo ha venido a demostrar con ayuda del dispositivo que se muestra aquí, muy conocido entre los profesionales que cuidan los campos de golf y que se llama Stimpmeter. El autor dice que ya ha patentado el recubrimiento y que espera que las grandes instituciones que establecen las reglas del golf, la USGA americana y la R&A inglesa no se opongan a que sus bolas se puedan usar en torneos, lo que permitiría su comercialización.

Ya veremos. Yo soy muy escéptico con los resultados que se presentan en Congresos por muy prestigiosos que sean. Posteriormente, en bastantes casos, esos resultados no aparecen en revistas más cuidadosas con la revisión por pares que los comités de los Congresos. En cualquier caso, no creo que a este vuestro Búho le sirva de mucho el invento. Premonitoriamente, en la entrada de 2006 arriba mencionada, a propósito de lo que disfrutaba entonces con este juego, ya preveía que cuando tuviera más tiempo para jugar, probablemente mi físico no me acompañara, como me está pasando. Así que si estáis pensando en jugar al golf cuando os jubiléis, mejor os lo pensáis dos veces y empezáis antes.

He escrito esta entrada a ratos libres durante los días de Semana Santa. Y había pensado en poner como música final un extracto de otro Réquiem, a los que soy aficionado, aunque no le haga mucha gracia a mi amigo Juanito E. Cuando el lunes de Pascua ya tenía configurada la entrada, me enteré de la muerte del Papa Francisco. Así que razón de más. Del Réquiem de Mozart, un extracto de Lacrimosa, grabado en la catedral de Salzburgo el 16 de julio de 1999 por la Filarmónica de Berlín dirigida por Claudio Abbado, en homenaje a Herbert von Karajan, muerto diez años antes.

Leer mas...

martes, 15 de abril de 2025

Aniversario y Quimiofobia

Este año, en octubre, hará cincuenta años que 117 estudiantes iniciaron sus estudios de Química en mi Facultad. Era la primera promoción del Centro y me tuvieron que aguantar desde el principio. Echando la vista atrás, no se cómo conseguimos que llegaran a buen término cinco años después, dadas las dificultades que hubo que enfrentar en aquellos convulsos años. Pero el caso es que la cosa no ha salido tan mal, como podéis comprobar en este artículo que el actual Decano del Centro y un servidor hemos publicado en la revista Anales de Química. El documento puede que no interese más que a gente de Donosti y próxima a las actividades de la Facultad pero, como ya he dicho otras veces, este Blog es mi diario (cuaderno de bitácora lo llamaban los primitivos blogueros) y quiero dejar aquí constancia “para la posteridad”. Mi otra participación en los diversos eventos programados para celebrar el redondo aniversario, es una charla sobre la Quimiofobia, que impartí en la Facultad la semana pasada y que voy a resumir brevemente en esta entrada.

Pedirme que imparta una charla de cincuenta minutos sobre la Quimiofobia, es ponerme en un brete. Tengo tanta información acumulada que es difícil buscar un hilo conductor de mis argumentos. Pero, tras darle muchas vueltas, lo hice sobre algunos causantes de la misma que resultaran un tanto sorprendentes a mis oyentes, dejando constancia al mismo tiempo de lo importante que es educar a la población, desde pequeños, en conceptos sencillos de Toxicología.

Para empezar, expliqué que el increíble avance de las técnicas analíticas, desde los años cincuenta del siglo pasado, ha resultado ser un paradójico catalizador de la Quimiofobia, al proporcionar esa sensación tan extendida en la población de la ubicuidad de las sustancias químicas en cualquier medio en el que busquemos. Y todo ello debido a la creciente sensibilidad de esas técnicas, que han ido haciendo que podamos detectar un gramo de una sustancia pretendidamente peligrosa en una cantidad de gramos de muestra escrita con la unidad seguida de doce ceros (o, en terminología de los analíticos, 1 parte por trillón o 1 ppt). Y, previsiblemente, vamos a poder ir más lejos. Pero detectar una sustancia no quiere decir que ello pueda poner en riesgo nuestra salud.

Peligro (hazard en inglés, al menos en el ámbito toxicológico) y Riesgo (risk) son dos palabras que manejamos muchas veces como sinónimos sin fijarnos que, tal y como las usa la Toxicología, son dos cosas distintas. Un peligro es cualquier fuente de daño o efectos adversos en la salud de alguien. Por ejemplo, conducir un coche es un peligro. 1.154 personas (muchas de ellas conductores) fallecieron en España en siniestros de tráfico en carretera durante 2024.

El riesgo es la posibilidad o probabilidad de que una persona se vea perjudicada o experimente un efecto adverso para la salud si se expone a un peligro. Por ejemplo, en España, hay unos 28 millones de personas con permiso de conducir vehículos de todo tipo y, por tanto, en peligro de morir en un accidente de tráfico. Así que, en el caso más extremo de que todos los muertos en España sean conductores, una persona que conduce un vehículo tiene una probabilidad (o riesgo) de 1 entre 24000 (o 1154 muertos entre 28 millones de personas con carnet de conducir) de fallecer anualmente en un accidente de tráfico. Las autoridades que velan por nuestra salud tratan de minimizar ese riesgo con adecuadas medidas, pero todos somos conscientes de que cuando conducimos estamos expuestos a un peligro. Algo similar ocurre con las sustancias químicas, sean naturales o puramente sintéticas, con las que convivimos. Y evaluar sus riesgos es lo que tratan de hacer organizaciones como la Organización Mundial de la Salud (OMS), la Agencia Europea de Seguridad Alimentaria (EFSA) o la americana Administración de Alimentos y Medicamentos (FDA), entre otras.

Al hilo de la evidente conexión entre la Quimiofobia y el miedo al cáncer, aproveché para explicar en la charla que también determinadas instituciones, con sus decisiones en principio bienintencionadas, han sido inductores o catalizadores sutiles de esa fobia. Una de esas decisiones es el uso de la llamada Cláusula Delaney por parte de la FDA americana, que expliqué con detalle en esta entrada de 2018. Según esa cláusula, cualquier sustancia que haya demostrado ser cancerígena en estudios con animales, no puede usarse en alimentación humana. Como ejemplo de la decrepitud de esta norma mostré en esa entrada la prohibición (entre otros aditivos) del metil eugenol sintético, tras aducir que producía cáncer en estudios con ratas de laboratorio a las que se atiborró durante dos años con dosis de esa sustancia que son entre 220.000 y 890.000 veces más altas que la exposición estimada a la misma de humanos que consuman productos con ese aditivo. Recalcando además que esa sustancia es el mismo metil eugenol que se vende como aceite esencial derivado de plantas que lo contienen y que nosotros consumimos, por ejemplo, cuando usamos la albahaca como especia.

La última víctima de la Claúsula Delaney es el llamado Colorante Rojo nº 3, químicamente conocido como eritrosina, un aditivo que, desde 1902, ha sido empleado en cosmética y en productos farmacéuticos o de confitería. Un par de artículos publicados en los ochenta (por ejemplo este) encontraron que producía cáncer en ratas macho a las que se les había eliminado parcialmente la glándula tiroides (no entiendo bien el por qué de esa cirugía como fase previa del estudio, pero estoy en ello). Eso hizo que la FDA prohibiera en 1990 el uso de ese colorante en cosmética (pintura de labios) pero no en fármacos o alimentos. Ahora, en enero de este año, la FDA lo ha prohibido totalmente  tras una petición de una serie de ONGs que presentaron esos artículos como evidencias y exigían el uso de la cláusula Delaney.

Pero si uno se lee con cuidado el informe de la FDA, constata varias cosas. Una, que las altas dosis empleadas en esos estudios son cientos de veces las que están permitidas por las agencias que velan por nuestra salud en los productos hasta ahora permitidos. Dos, que desde esas lejanas fechas de los artículos de las ratas machos, no ha habido nuevas pruebas de que el colorante sea cancerígeno en otros animales ni en humanos. Y tres, que, a pesar de lo anterior, no le queda más remedio que prohibirla en virtud de lo aducido por las ONGs y la dichosa Cláusula.

El otro caso que propuse a consideración en la charla es el del glifosato, el popular herbicida sobre el que hablé en esta entrada. El caso es que la llamada Agencia Internacional para los Estudios sobre el Cáncer (IARC) perteneciente a la OMS, tiene establecida una clasificación del carácter cancerígeno de las sustancias en tres grupos, uno dividido en dos subgrupos. En marzo de 2015, la IARC incluyó al glifosato en el Grupo 2A. Esto quiere decir que es “probablemente cancerígeno para el ser humano”. En ese grupo, comparten honores con el glifosato sustancias como la acrilamida, que se genera al freír y dorar las patatas de nuestros huevos fritos o tostar café. O actividades tan habituales como beber bebidas muy calientes o comer carne roja. En ese grupo están también determinadas profesiones como trabajar en una peluquería o ser soplador de vidrio. Cosas con las que convivimos en nuestra vida normal, a pesar de saber que son peligrosas, asumiendo que el riesgo lo tenemos más o menos controlado.

Pero, frente a esa clasificación de la IARC, a día de hoy, hay cientos de estudios e informes de organismos oficiales que concluyen que es poco probable que el glifosato sea cancerígeno para los humanos. ¿Cómo puede ser posible esa discrepancia?. Pues el Instituto alemán para la Evaluación de Riesgos (BfR) lo explicaen base a esos conceptos de peligro y riesgo que hemos visto anteriormente. Dicho en forma resumida, el BfR aclara que la evaluación de la IARC está basada en el peligro y la de otros organismos en el riesgo. O, en otras palabras, la IARC no calcula la probabilidad de que el glifosato sea cancerígeno o no, dependiendo de las cantidades a la que nos expongamos.

En el fondo, no realizar una evaluación de las probabilidades que existen al exponerse a una sustancia peligrosa es abandonar el viejo paradigma de Paracelso (1493-1541) quien, ya en el siglo XVI, dijo aquello de “Todo es veneno y nada es veneno, solo la dosis hace el veneno”. Pero, en los últimos tiempos, hay una serie de indicios que parecen indicar que algunos científicos e Instituciones están por abandonar ese paradigma de la Toxicología. Lo que puede tener consecuencias en la difusión de la Quimiofobia o en la prohibición radical de algunos productos que consumimos. Pero eso da para otra charla y, por supuesto, para una próxima entrada.

Hoy tengo para acabar una pieza musical que he descubierto recientemente en Mezzo, la cadena de música clásica, ballet y jazz, a la que estoy suscrito. De Shostakovich, el Allegretto de Lady Macbeth from Mtzensk. Con la Filarmónica de Berlin, en uno de esos conciertos al aire libre que se organizan en verano. En este caso el Waldbühne 2011, donde el director era Riccardo Chailly.

Leer mas...

miércoles, 26 de marzo de 2025

Si no quieres taza (RFK Jr.) toma taza y media (Dr. OZ)

No repuestos todavía del nombramiento por Trump de RF Kennedy Jr. como Secretario de Salud y Servicios Sociales de Estados Unidos y la cascada de afirmaciones que ha hecho sobre la fluoración del agua potable, la cura del sarampión con vitamina A o el dejar que las gallinas se contagien libremente de la gripe aviar para acabar con ella (así va el precio de los huevos), me acabo de desayunar con el nombramiento, en el Departamento que Kennedy dirige y como Administrador de los Centros de Servicios de Medicare y Medicaid, de un viejo conocido, el famoso Dr. Oz, que Wikipedia define como "un personaje de televisión, turco-estadounidense, cirujano cardiotorácico, profesor (emérito) de la Universidad de Columbia, promotor de pseudociencia y autor".

Como implícitamente viene establecido en esa definición, el Doctor Oz es sobre todo conocido por el show televisivo cuyo logo veis en la figura que ilustra esta entrada, un veterano programa que lleva años siendo criticado por la comunidad médica americana por la cantidad de recomendaciones, sin base científica o rozando claramente la pseudociencia, que en él se han realizado.

Para centrarnos en el tema, hay que aclarar que Medicare es un programa de cobertura de seguridad social, administrado por el Gobierno de Estados Unidos, que proporciona atención médica a todas las personas mayores de 65 años, o más jóvenes, si tienen graves problemas de salud, como cáncer, insuficiencia renal con necesidad de diálisis, etc. Medicaid, por su lado, es un programa de seguros de salud para la gente necesitada. En cualquier caso, y sin entrar en muchas profundidades, nada que se le parezca a nuestra Seguridad Social.

Entre otras muchas de las falacias que ha difundido entre sus espectadores, al Dr. Oz se le conoce sobre todo por sus proclamas sobre “milagrosos” quemagrasas, sustancias que pueden ayudar a adelgazar. La lista de productos que han aparecido en el programa es muy larga y van desde el extracto de café verde, la pulpa de la Garcinia Cambogia (o Tamarindo Malabar), el mango africano, los extractos de alubia blanca o de azafrán hasta la llamada cetona de frambuesa. Todos ellos promocionados bajo envoltorios más o menos “científicos”.

Por solo abundar en uno de ellos, bastante representativo en el historial del Dr. Oz, la mencionada cetona de frambuesa, químicamente conocida como reosmina o rascetona, es un compuesto fenólico que constituye el principal componente aromático de las frambuesas rojas. El Dr. Oz la hizo muy popular tras su presentación en uno de los programas emitidos en 2012. Aunque se encuentra de forma natural en las frambuesas, lo cierto es que lo que que se vende como suplemento alimentario, generalmente en forma de cápsulas, es un producto de síntesis (entre otras cosas porque el obtenido a partir de frambuesas es carísimo). Entre los potenciales beneficios que el Dr. Oz le adjudicaba estaba el que aumentaba la producción de adiponectina, una hormona implicada en la quema de grasas. También se aducía que la cetona de frambuesa actúa como un supresor del apetito e incluso que tenía propiedades antioxidantes y antiinflamatorias.

Ninguna de esas proclamas, ni otras realizadas con los otros “quemagrasas” ha tenido confirmación en estudios de investigación que se han llevado a cabo en animales o células de cultivo, nunca en humanos. Y no existen evidencias clínicas suficientemente claras como para poder afirmar que, con su uso, uno adelgaza. Además, y volviendo a la cetona de frambuesa, su consumo en cantidades importantes puede tener contraindicaciones cardiacas, como tensión arterial alta o taquicardias. De hecho, un caso sonado en EEUU fue la muerte de una joven de 22 años de una sobredosis de este preparado. La cetona de frambuesa fue uno de los casos que una congresista americana puso sobre la mesa, en una sesión a la que se tuvo que someter en el Congreso americano nuestro recién nombrado Director en 2014, por hacer proclamas exageradas sobre pérdidas de peso de suplementos diversos.

El Dr. Oz es también conocido por sus estrechas relaciones con la medicina alternativa. Y así, existe constancia documental de su fervor por la homeopatía (de la que mis lectores saben que soy un sesudo estudioso) o el Reiki, un tipo de medicina alternativa de origen japonés englobada dentro de las terapias de energía en la que, mediante la imposición de manos,se pretende transferir una energía universal (el qì) hacia el paciente con el fin de promover la curación emocional o física. De hecho, en 2009 y por su apuesta por el Reiki, nuestro Dr. Oz recibió un Premio Pigasus, instituido por ese azote de las pseudociencias que fue James Randi y que consiste en un cerdo volador de plata, que se suele adjudicar a los que propugnan teorías tan dudosas que “solo sucederán cuando los cerdos vuelen".

Es verdad que, al menos directamente, no parece haberse implicado en la distribución comercial de esos suplementos, aunque si ha tenido que hacer dinero con su programa de TV, con la impartición de conferencias y con la publicación de libros. O, al menos, no al nivel de otro conocido charlatán de feria sobre estas cosas, el también famoso Dr. Mercola, que mantiene un lucrativo negocio usando su nombre como reclamo en esta página web, en la que uno puede encontrar y comprar todo tipo de productos desde suplementos alimenticios y bebidas hasta cosas para mascotas. Todo a precio de orillo y sin argumentos científicos que los avalen. Y, por supuesto, todos muy sostenibles, orgánicos y hasta biodinámicos.

Pero lo que está claro, volviendo al Dr. Oz y su nuevo cargo, es que mal lo van a tener los ancianos enfermos de graves dolencias (protegidos por el Medicare) o los más desvalidos (bajo la tutela de Medicaid) con este ciudadano como Director General de ambas instituciones. Los veo en manos de curanderos y homeópatas…

Y la primavera de Vivaldi para festejar su llegada. Con Karajan dirigiendo (y tocando) y esa gran dama del violín que ha sido desde muy joven Anne-Sophie Mutter.

Leer mas...

lunes, 10 de marzo de 2025

Una nueva forma de cocer huevos

El pasado viernes este Blog cumplió diecinueve años. Así que, con esta nueva entrada, la sexcentésima sexagésima novena, comienza la vigésima temporada del mismo. Al ritmo que voy me costaría más de tres años el completar un número redondo como las setecientas cincuenta entradas y lo de las mil ya mejor no lo pienso….. Muchas de las primeras entradas del Blog tuvieron como base la intensa relación que, en la primera década de este siglo, mantuve con Juanmari y Elena Arzak, Xabi Gutierrez e Igor Zalakain del Restaurante propiedad de los dos primeros. Y me he dado cuenta de que hace tiempo que no escribo sobre asuntos de corte más o menos “científico”, ligados a las cosas de comer. Probablemente porque ha perdido mucho fuelle (aunque no todo) lo que, en aquella ya pretérita época, se bautizó pomposamente como Gastronomía Molecular. Esta semana, unos investigadores napolitanos me lo han puesto a huevo (y nunca mejor dicho) para escribir algo que suene a aquellos viejos tiempos, con un artículo publicado en la revista Communications Engineering, perteneciente, nada menos, al grupo Nature.

En ese ámbito de la Gastronomía Molecular, la “perfecta” cocción de un huevo ha generado bastante literatura. Entre la mucha que tengo acumulada en mi despacho, y por solo citar algunos ejemplos que me son más o menos próximos, tengo un libro de Hervé This, “Casseroles et éprouvettes” (2002), que dedica un par de entradas a los huevos y su cocción. Jeff Potter, en su libro Cooking for geeks (2010), dedica un capítulo a las temperaturas claves en la cocina, en el que tienen su hueco las empleadas en la cocción de los huevos. Mi amigo Harold McGee, en su monumental obra The Food and Cooking (2004), dedica todo el capítulo 2 a los huevos y a sus formas de cocción. Y para terminar, el Blog Khymos de Martin Lersch, que es casi tan viejo como el mío y que también sigue en activo, tiene muchas entradas sobre huevos y sus cocciones, a las que podéis acceder sin más que escribir eggs en el buscador (la lupa) de su página de acogida. Me hubiera gustado enlazaros también el Blog lamargaritaseagita, un blog mítico en cocina avanzada, pero el amigo Jorge Ruiz lo ha hecho desaparecer (o eso parece y, si no es así, ya me corregirá).

El artículo que me ocupa en esta entrada de hoy presenta un método pretendidamente innovador para cocinar, de manera uniforme, tanto la clara como la yema del huevo, mediante un proceso que los autores han bautizado como "cocción periódica". Esta estrategia va alternando la introducción del huevo en agua hirviendo a 100 °C y agua a 30 °C cada dos minutos, hasta un total de 32 minutos. El procedimiento permite que la yema mantenga una temperatura constante de aproximadamente 67 °C, mientras que la clara oscila entre 35 °C y 100 °C, lográndose, finalmente, una textura homogénea en ambas partes del huevo.

En el artículo, se comparan los huevos “periódicos” así preparados con los producidos mediante procesos más o menos tradicionales. Y así, se obtienen huevos duros, entendiendo por tales los cocidos en agua hirviendo (100ºC) durante 12 minutos, huevos pasados por agua en los que la cocción en agua hirviendo se restringe a 6 minutos y los llamados huevos “sous vide” (1), huevos que han sido mantenidos a a una temperatura controlada de 63-65º durante una hora. En este último caso se necesita el concurso de un baño termostático, un horno o una thermomix para mantener esa temperatura, algo también necesario en el caso de los huevos “periódicos” durante los dos minutos de los ocho procesos a 30ºC.

Además del termómetro y el baño termostático, los autores emplean otros muchos métodos experimentales lo que, a pesar de la humilde materia prima de la que nos estamos ocupando, hace que el artículo destile mucha ciencia. Por ejemplo, emplean Simulaciones computacionales basadas en dinámica de fluidos para modelar la transferencia de calor entre el agua y las diferentes partes del huevo y determinar así las condiciones óptimas de la cocción “periódica”. Emplean también técnicas analíticas sofisticadas como la Espectroscopía infrarroja de Transformada de Fourier (FTIR) para estudiar los fenómenos de desnaturalización de las proteínas del huevo y la Resonancia Magnética Nuclear (RMN), la Cromatografía Líquida de alta presión y la Espectrometría de Masas para evaluar la composición de las yemas y claras cocidas con cada estrategia, así como sus perfiles nutricionales. No contentos con todo lo anterior, utilizan un Reómetro Rotacional de placas paralelas para evaluar la textura de cada clara y yema de los huevos, en variables como su dureza, su cohesión, su elasticidad… Emplean también un panel de cata para evaluar las propiedades sensoriales de cada huevo y acaban considerando aspectos microbiológicos de las muestras por los peligros implícitos en las cocciones a baja temperatura.

Aunque este método requiere más tiempo que las técnicas tradicionales, los investigadores destacan que se produce una textura única y favorable y confirmaron una pérdida mínima de aminoácidos esenciales y polifenoles en comparación con todas las demás técnicas de cocción. Los experimentos de caracterización confirmaron estos hallazgos, destacando la mejor desnaturalización de las proteínas de los huevos "periódicos" así como una mejor agregación sus dos fases (clara y yema) cuando se los compara con los producidos por las técnicas de cocción convencionales. La apariencia física del huevo duro, del pasado por agua, del "sous vide" y del "periódico" puede verse en la imagen que ilustra esta entrada y que podéis ampliar clicando en ella.

En cuanto a los resultados del panel de cata, el artículo establece que, en comparación con el huevo “periódico”, tanto la clara como la yema del huevo duro difieren principalmente por su consistencia menos húmeda, más adhesiva y más arenosa cuando se presiona entre la lengua y el paladar. Al analizar el sabor, la clara de huevo duro es más dulce, la yema es menos dulce y tanto la clara como la yema tienen menos sabor umami, el llamado quinto sabor o sabroso (aunque se percibe con una intensidad débil). La muestra del huevo pasado por agua, a diferencia del “periódico”, tiene una superficie de la clara más brillante, es más seca en boca y menos dulce. La yema es menos densa y más húmeda, menos dulce y menos salada. Finalmente, en comparación con la muestra periódica, la clara “sous vide” es más brillante y más clara o transparente. También es definitivamente más suave, húmeda y más soluble durante la degustación. Por otro lado, las yemas son muy similares entre sí y no surgen diferencias significativas. Todo ello hace concluir a los autores que el método presenta ventajas evidentes sobre los empleados hasta ahora.

En fín, que si tenéis tiempo y os gustan estas cosas quizás os podáis divertir algo y lo contáis en los comentarios. Si debo advertiros que, en el tono un poco prepotente que siempre le ha caracterizado, Hervé This ya ha manifestado sus reservas ante el artículo. Dice que el método de cocción periódica es viejo, que hace más de cien años ya se aplicaba a la cocción de carnes y que echa de menos el que no hayan empleado otros tipos de cocción de huevos como el uso de microondas o la cocción bajo alta presión.

Y un poco de música, como siempre. La Obertura de Dido y Eneas de Purcell por la Academy of Ancient Music dirigida por Steven Devine.

___________________________________________________________________________________

(1) El término “sous-vide” se refiere, en su acepción general, a introducir los alimentos en una bolsa en la que se hace el vacío para, posteriormente, cocinarlos tiempos más o menos largos a temperaturas en el entorno de los 60º. En este caso, los autores parece que introducen directamente los huevos en agua entre 63 y 65º, según su propia descripción, con lo que llamarlos sous-vide no sería del todo correcto. De hecho en algunas secciones del artículo, los denominan 6X ºC (por aquello del intervalo de temperatura).

Leer mas...

Powered By Blogger